Наши физики и data-science(те, кто создает ИИ и занимаются сложными вычислениями) специалистами из МФТИ и Сколтеха смогли создать и запустить квантовую(рекуррентную)нейросеть для предсказания числовых последовательностей.
Это как прогнозирование погоды или температуры, только на квантовом уровне. Задача на первый взгляд кажется простой: нужно предсказать следующее значение в последовательности чисел, которые изменяются со временем. Это похоже на прогнозирование погоды, нагрузки в электросети, температуры и других "сигналов" в физике, биологии и экономике.
Однако за этой кажущейся простотой скрывается ключевая проблема современной обработки данных. Классические ИИ научились выявлять скрытые закономерности, но вопрос о том, могут ли квантовые процессоры предложить практические решения для таких задач, остаётся открытым.
В сверхпроводниковом квантовом компьютере информация хранится в состояниях искусственных атомов, представляющих собой электрический контур — это замкнутый путь, который проходит по нескольким ветвям электрической цепи из сверхпроводящего материала с джозефсоновскими переходами — явление протекания сверхпроводящего электрического тока через тонкий слой диэлектрика, разделяющий два сверхпроводника. Эти атомы создаются на кремниевой подложке. Информация может быть искажена из-за окружающей среды, несовершенства управляющих импульсов и ошибок считывания. Поэтому важно найти баланс: сделать схему достаточно сложной и достаточно простой, чтобы квантовые состояния не терялись до извлечения информации
Для квантового аналога рекуррентной сети исследователи выбрали архитектуру QRNN (по нашему: КРНС, проще говоря, Квантовая рекуррентная нейронная сеть).
Принцип работы похож на классический: нейросети получают фрагменты временного ряда и предсказывает следующий элемент на его основе. Но "запоминание" и "переваривание" информации происходят иначе и ближе к человеческому мозгу. Вместо привычных матриц весов и нелинейностей используются параметризованные квантовые схемы, состоящие из цепочек квантовых операций с обучаемыми параметрами. Результаты опубликованы на сайте JETP Letters.
Специалисты хотели понять, насколько хорошо квантовый компьютер с нейронной сетью (КРНС) может работать на реальном сверхпроводящем чипе. Они хотели узнать, какие настройки делают предсказания лучше и когда усложнение схемы перестает помогать. Для этого они создали целую цепочку: от подготовки данных на обычном компьютере до обучения на квантовом.
Сначала данные подгоняли под удобный для квантовых компьютеров диапазон от -1 до 1. Затем из них вырезали кусочки: фрагмент из T точек и следующий элемент, который нужно было предсказать. Вводить длинный временной ряд в квантовый процессор сложно и не нужно, потому что ошибки накапливаются с увеличением шагов. Поэтому они использовали метод свёртки: из длинного ряда длиной делали короткую последовательность, которую потом подавали на квантовый компьютер.
Квантовая часть состояла из повторяющихся этапов операций. Половина кубитов использовалась для записи входных данных, а другая половина сохраняла информацию о прошлых входах через запутывание.
Данные кодировались путем многократного вращения кубита — один из процессов изменения состояния кубита (базовая единица информации в квантовых вычислениях), позволяющий выполнять различные операции, необходимые для реализации квантовых алгоритмов. Угол изменения наклона кубита зависел от входящего числа и используемых уравнений. Затем происходили однократные (однокубитные) вращения, изменяющие внутреннее состояние системы, и запутывание через серию двухкубитных операций.
Ключевым приемом стало повторное введение данных в схему, что позволило создавать и использовать более сложные данные без увеличения числа кубитов. Это существенно снизило ошибку предсказаний, иногда в десятки раз. Для обучения своего "слабого" ИИ на основе метода КРНС использовался среднеквадратичный критерий ошибки и оптимизация по градиенту.
Перед экспериментом на чипе модель тщательно исследовалась в симуляторе, где подбирались ключевые гиперпараметры: число кубитов, длина входящих квантовых данных параметры, их оптимизация и число повторных загрузок.
Результаты симуляции показали, что увеличение числа кубитов улучшают обучение, но после шести кубитов наступает т.н "насыщение" и усложнение схемы становится дорогостоящим. При слишком маленьком количестве кубитов ИИ не мог предсказывать динамику, а при слишком большом время выполнения увеличивалось, но качество обучения не улучшалось. Оптимальными оказались параметры: четыре кубита(2 прогоняют многократно, а 2 — однократно) и десять "вращений" двух повторных кубитов.
Сергей Самарин из МФТИ отметил, что в эпоху"шумных" квантовых процессоров(современные квантовые компьютеры работают неустойчиво из-за внешних помех, переключающих квантовые параметры когда и как вздумается — одна из причин пока и нет квантовых компьютеров в массе) важно балансировать между глубиной квантования алгоритма и соотношением кубитов. Олег Астафьев добавил, что оптимизация и многократная перезагрузка данных повышают эффективность обучения квантовых машин.
Исследование объединило три сложных элемента: рекуррентную обработку временных рядов, квантовые схемы и реальные ограничения. Методика сочетания классической свертки и квантовой обработки сократила глубину квантовой части и помогла бороться с декогеренцией.
Перспективы включают ускорение обучения за счет сокращения времени релаксации системы, расширение выходного пространства модели и поиск оптимальных схем кодирования данных для сверхпроводниковых платформ. Исследование также внесло вклад в понимание обучения квантовых схем.